هادي ويسي. دانشگاه تهران - دانشکده علوم و فنون نوين نیم سال اول

Μέγεθος: px
Εμφάνιση ξεκινά από τη σελίδα:

Download "هادي ويسي. دانشگاه تهران - دانشکده علوم و فنون نوين نیم سال اول"

Transcript

1 هادي ويسي دانشگاه تهران - دانشکده علوم و فنون نوين نیم سال اول

2 مقدمه انتخاب ويژگي ها روش پوشه )Wrapper( روش فیلتر )Filter( معیارهای انتخاب ویژگی )میزان اهمیت ویژگی( آزمون آماری تی :)T-test( توضیح و مثال معیارهای انتخاب ویژگی )مستقل بودن( استخراج ويژگي ها تحلیل اجزای اصلی )PCA( تحلیل تفکیک خطی )LDA( 2

3 ويژگي هرگونه مشخصه و معرف برای یک شی میتواند دادههای اسمی باشد مانند سبز زیاد و... میتواند عددی )پیوسته یا گسسته( باشد مانند مقدار ارتفاع بردار ویژگی Vector( :)Feature تعداد n مولفه از ویژگیها در یک بردار فضای ویژگی Space( :)Feature فضای nبعدی تعریف شده توسط بردار ویژگی نمودار پراکندگی Plot( :)Scatter نمایش هر بردار ویژگی در فضای ویژگی به صورت یک نقطه 3

4 ويژگي هاي خوب ایجاد تمایز بین دسته های مختلف و داشتن شباهت در یک دسته )Characteristic( تعداد اندک و مختصر باشد )Representative( قابل تفسیر به مفهوم موردنظر انسان باشد )Interpretable( برای کاربرد مورد نظر مناسب باشد )Suitable( ویژگی خوب مستقل از همدیگر باشند مولفههای وابسته افزونگی دارند )Independent( انواع... ویژگی بد 4

5 مثال هايي از تعداد ويژگي ها تشخیص چهره Recognition( )Face تعداد ویژگی برای یک تصویر 1024*768 دستهبندی متون Classification( )Document برای واژگان کلمهای هر مستند با یک بردار بعدی توصیف میشود دسته بندی ژن ها تعداد ابعاد تا بعد تعداد نمونهها اندک )چند ده مورد تا حدود 100( زياد بودن تعداد انرژي ها الزاما کارايي دسته بند را باال نمي برد 5

6 هدف: کاهش تعداد ويژگي ها با حفظ کارايي دسته بند روش هاي کاهش داده رگرسیون )Regression( یک مدل با تعداد محدودی پارامتر دادهها را مدل میکند مثال با یک خط )دو پارامتر( یا مدل AR آماره کافی statistics( )sufficient تابعی از دادهها )با تعدادی محدود پارامتر( که اطالعات اصلی آن دادهها را نگه میدارد هیستوگرام )Histogram( تقسیم دادهها به بازههایی )با طول برابر یا تعداد برابر( و نگهداری جمع )یا میانگین( آن دادهها خوشهبندی )Clustering( تقسیم داده ها در تعداد محدودی خوشه بر اساس شباهت و استفاده از نماینده خوشه برای بیان داده های ان خوشه نمونهبرداری )Sampling( برداشتن تعداد محدودی نمونه برای بیان کل داده ها 6

7 پردازش ويژگي ها انتخاب ویژگی: انتخاب زیرمجموعه ای ازویژگی های فعلی عدم تغییر ویژگی های اولیه حذف تعدادی از آنها انتخاب ویژگی d d! m m!( d m)! که m d تعداد کل ویژگیهای ممکن استخراج )تبدیل( ویژگی: استخراج تعدادی )کمتری( ویژگی از روی ویژگی های فعلی تغییر ویژگیهای اولیه خوشهبندی تبدیل تحلیل اجزای اصلی )PCA( 7

8 روش پوشه )Wrapper( معیار: ارزیابی ویژگیها بر اساس میزان دقت دستهبند انتخاب یک دسته بند دستهبندی )آموزش و آزمون( با زیرمجموعههای مختلف از ویژگیها انتخاب زیرمجموعه ای که منجر به دقت باالتری در دسته بند می شود روش فیلتر )Filter( روشی برای انتخاب ویژگی ها به صورت مستقل از دسته بند معیار: مستقل بودن ایجاد تمایز بیشتر )میزان اهمیت ویژگی( روشی بهتر و پرکاربردتر روش تعبیه شده) Embedded ( انتخاب ویژگی همزمان با ساخت دستهبند مانند درخت تصمیم 8

9 و( درس: بازشناسی آماری آلگو- آنتخاب و آستخرآج ویژگی )Embedded( روش هاي فیلتر پوشه Wrapper( تعبیه شده )Filter( دسته بند دسته بند Embedded دسته بند 9

10 ... )Wrapper( روش پوشه چهار ویژگی: باد رطوبت دما و منظره تعداد 2 N زیرمجموعه برای N ویژگی محاسبات باال 10

11 روش پوشه )Wrapper(... انتخاب پیش رو ترتیبی )SFS: Sequential Forward Selection( اسم دیگر: Forward Selection شروع با مجموعه خالی از ویژگیها یافتن بهترین ویژگی بعدی )ویژگیای که در کنار ویژگیهای فعلی کارایی دستهبند را بهتر کند( اضافه کردن ویژگی مناسب انتخاب شده )در مرحله قبل( به مجموعه ویژگیهای انتخابی ادامه کار تا یافتن تعداد ویژگی موردنظر انتخاب پسرو ترتیبی Selection( )SBS: Sequential Backward اسم دیگر: Backward Elimination شروع با مجموعه تمام ویژگیها یافتن بدترین ویژگی بعدی )ویژگیای که با حذف آن از ویژگیهای فعلی کارایی دستهبند بهتر میشود( حذف ویژگی انتخاب شده )در مرحله قبل( از مجموعه ویژگیهای انتخابی ادامه کار تا یافتن تعداد ویژگی موردنظر 11

12 روش پوشه )Wrapper( تغییر یا ترکیب SFS و SBS )GSFS( تعمیم یافته SFS تا وقتی که تعدآد n-k ویژگی باقی مانده آست تمام زیرمجموعههای k تای ی آز ویژگیها رآ آرزیابی کن PTA(I,R): plus I and take away R در هر مرحله SFS رآ I بار و SBS رآ Rبار آجرآ کن جستجوی شناوری )Floating( تا زمانی که زیرمجموعه مناسب تری آز زیرمجموعه فعلی )با آندآزه یکسان( پیدآ نشده آست یک بار SFS و یک بار SBS رآ آجرآ کن. 12

13 روش فیلتر :)Filter( معیارهاي انتخاب ويژگي 1- میزان اهمیت ویژگی و توان در ایجاد تمایز بین دستههای مختلف 2- مستقل بودن ویژگی ها X 1 تمایز بیشتری ایجاد می کند تمایز یکسان X 1 و X 2 اما دو ویژگی وابستهاند استفاده از یکی یا هردو معیار انتخاب یک ویژگی )Univariate( ارزیابی یا چند ویژگی )Multivariate( در هر لحظه برای 13

14 معیارهاي انتخاب ويژگي )میزان اهمیت ويژگي(... معیارهای مبتنی بر اطالعات ویژگی A انتخاب میشود اگر Gain(A)>Gain(B) مقدار Gain میتواند با روشهای مختلفی محاسبه شود Information Gain Gain Ratio Gini Index معیارهای آماری برای دادههای پیوسته با توزیع گاوسی روش T-test )دو دسته( و ANOVA )چند دسته( برای دادههای پیوسته با توزیع غیرگاوسی روش Mann-Whitney )دو دسته( و Kruskal-Wallis )چند دسته( برای دادههای طبقهای )Categorical( دادههایی با مقادیر محدود و مشخص مانند گروه خونی- Chi-Square روش 14

15 معیارهاي انتخاب ويژگي )میزان اهمیت ويژگي(: آزمون آماري تي )T-test( ارزیابی میزان یکسان بودن یا نبودن میانگین نمونه ای با میانگین واقعی یک ویژگی را انتخاب می کنیم ویژگیای که میانگین آن برای دو دسته مختلف به اندازه کافی متفاوت باشد )فاصله میانگین ویژگی انتخاب شده در دو دسته مختلف زیاد باشد( ویژگی x: ij ویژگی iام از دسته jام با میانگین m ij و انحراف معیار s ij فرض صفر) hypothesis H(: 0 :Null میانگین ویژگی تمایزی بین دو دسته iو k ایجاد نمیکند و میانگین m ij و m ik برابرند برای نشان دادن خوب بودن ویژگی باید این فرض را رد کنیم آماره زیر را محاسبه کنید تعداد کل بردارهای ویژگی )نمونهها( در دسته k تابع گاما این آماره داری توزیع t-student است درجه آزادی- برابر با یکی کمتر از تعداد نمونهها 15

16 معیارهاي انتخاب ويژگي )میزان اهمیت ويژگي(: آزمون آماري تي:-الگوريتم گام اول: محاسبه آماره درجه آزادی این آماره )پارامتر v( برابر است با به نزدیک ترین عدد صحیح گرد کنید ( زا گام دوم: محاسبه و روی جدول مقادیر توزیع( محاسبه مقدار توزیع t-student را به ازای درجه آزادی df و با میزان اطمینان α-1 باید حداقل %95 باشد یعنی 0.05 α( و با t مقایسه کنید )میزان اطمینان گام سوم: اگر بود آنگاه فرض بودن برابر m ij و m ik رد نمی شود و ویژگی انتخابی مناسب نیست 16

17 معیارهاي انتخاب ويژگي )میزان اهمیت ويژگي(: آزمون آماري تي: مثال در شکل روبرو آیا x 1 ویژگی مناسبی است داریم میانگین X1 در دسته 1 چون مقدار حاصل در ناحیه اطمینان نیست فرض صفر رد نمی شود و x 1 ویژگی مناسبی نیست ویژگی x 2 چطور فرض صفر رد می شود و x 2 ویژگی مناسبی است 17

18 )correlation( معیارهاي انتخاب ويژگي )مستقل بودن(... در صورت وابسته بودن دو ویژگی یکی از آنها اضافی است محاسبه مستقل بودن )independence( بر اساس همبستگی Independence 2 = 1 Correlation 2 تقریبی است! ضریب همبستگی افزایش x منجر به کاهش y میشود افزایش x منجر به افزایش y میشود 18

19 معیارهاي انتخاب ويژگي )مستقل بودن(... مستقل آیا همبسته نبودن استقالل را نتیجه میدهد محاسبه هم بستگی برای داده های پیوسته با توزیع گاوسی )Pearson( ضریب همبستگی پیرسون برای دادههای پیوسته با توزیع غیرگاوسی یا دادههای ترتیبی )Spearman( ضریب همبستگی آسپیرمن برای دادههای طبقهای )Pearson contingency coefficient( ضریب تصادفی پیرسون 19

20 معیارهاي انتخاب ويژگي )مستقل بودن(: ضريب هم بستگي... پیرسون معیاری برای سنجش میزان همبستگی خطی بین دو متغیر )ویژگی( مقدار ضریب بین 1- تا 1 است مقدار 1 و 1 هب- معنای همبستگی مثبت و منفی کامل و مقدار صفر به معنی عدم همبستگی است برای دو ویژگی X و Y میانگین X انحراف معیار X ویژگی هایی بهترند که مقدار همبستگی آنها زیاد نباشد 20

21 معیارهاي انتخاب ويژگي )مستقل بودن(: ضريب همبستگي پیرسون... 21

22 روش فیلتر مزیت: روشی سریع و بهینه عیب: ممکن است یک ویژگی به تنهایی مناسب نباشد اما در ترکیب با سایر ویژگیها عملکرد خوبی داشته باشد مثال: در محاسبه شباهت دو متن یک کلمه )به عنوان یک ویژگی( به تنهایی میتواند از لیست ویژگیها حذف شود اما وقتی در متن است اثرگذار است روش پوشه عیب: بسیار زمانبر است و در بسیاری از کاربردها بررسی تمام ترکیبهای ویژگیها عملی نیست برای N ویژگی 2 N زیرمجموعه وجود دارد 22

23 استخراج تعدادي )کمتري( ويژگي از روي ويژگيهاي فعلي استفاده از تبدیلها )ی خطی و غیرخطی( مثال 23

24 تابع تبديل مناسب براي استخراج ويژگي ها معموال غیرخطي است اما يافتن تبديل خطي ساده تر است تبديل هاي خطي تحلیل اجزای اصلی تحلیل تفکیک خطی تحلیل تفکیک چندگانه تحلیل اجزای مستقل تحلیل عاملی مقیاس سازی چندبعدی )PCA: Principal Component Analysis( )LDA: Linear Discriminant Analysis( )MDA: Multiple Discriminant Analysis( )ICA: Independent Component Analysis( )Factor Analysis( )Multidimensional Scaling( 24

25 تبديل هاي غیرخطي تحلیل اجزای اصلی هسته PCA( )Kernel ISOMAP تعبیه خطی محلی )LLE: Locally Linear Embedding( )MLP( شبکه هاي عصبي شبکههای پیشرو مانند پرسپترون چند الیه ایجاد تبدیل خطی/غیرخطی شبکه خودسازمان ده )SOM( خوشه بندی 25

26 دسته بندي روش ها از نگاهي ديگر باناظر تحلیل تفکیک خطی Analysis( )LDA: Linear Discriminant تحلیل تفکیک چندگانه Analysis( )MDA: Multiple Discriminant بدون ناظر شبکه خودسازمان ده )SOM( تحلیل اجزای اصلی Analysis( )PCA: Principal Component تعبیه خطی محلی Embedding( )LLE: Locally Linear 26

27 ايده: تبديل خطي براي کاهش تعداد ويژگيها + بیشترين کاهش + بیشینه دقت )عدم حذف ويژگيهاي اصلي( معرفی توسط پیرسون )Pearson( در 1901 و استفاده از آن در زمینه زیستی اسامي ديگر تبدیل بردارهای ویژه )Eigenvectors( تبدیل هتلینگ transform( )Hotteling استفاده در روانشناسی در 1933 توسط هتلینگ برای تبدیل متغیرهای گسسته به ضرایبی غیرهمبسته تبدیل )KLT: Karhunen-Loeve Transform( KL استفاده توسط کارهانن در سال 1947 برای دادههای پیوسته و تعمیم آن در سال 1948 توسط الف تبديلي با کمینه میانگین مربعات خطا اثبات توسط کاشمن در سال

28 T i x1 x2.. x n X. بعدی x i را در نظر بگیرید PCA عملکرد بردار ویژگی n میخواهیم تعداد ویژگیها را از n به d ویژگی کاهش بدهیم که d n بردار ویژگی x i را در ماتریس تبدیل T (d n) ضرب می کنیم ماتریس تبدیل n d :PCA Y i T X i ویژگیهای اولیه: n بعدی ویژگیهای جدید: d بعدی سوال: نحوه بدست آوردن تبدیل T 28

29 بدست آوردن ماتريس تبديل PCA... گام اول: با فرض داشتن Mبردار ویژگی n بعدی میانگین آنها را حساب کن گام دوم: همه ویژگی ها را مرکزی کن 1 M k 1 برای این کار میانگین هر ویژگی را از آن ویژگی کم کن μ x M X k یک بردار n بعدی X ( i ) X ( i ) ( i ), i 1,2,..., n k 1,2,..., M k k x گام سوم: ماتریس همبستگی ویژگیهای مرکزی شده )ماتریس کواریانس ویژگیهای اولیه( را محاسبه کن برای داده های حقیقی این ماتریس مربعی حقیقی و متقارن است M 1 T C [( X )( X ) ] x k k M k 1 یک ماتریس n*n 29

30 C x ماتریس کواریانس )Φ i ( بدست آوردن ماتريس تبديل. PCA.. گام چهارم: محاسبه مقادیر ویژه ( i λ( و بردارهای ویژه یک مقدار حقیقی یک بردار n بعدی C Φ Φ x i i i تعداد مقادیر ویژه و بردارهای ویژه برابر با n )به تعداد ابعاد بردار ویژگی( به علت حقیقی و متقارن بودن ماتریس کواریانس است مقادیر ویژه حقیقی و غیرصفر هستند بردارهای ویژه متعامد هستند پیدا کردن n بردار ویژه متعامد همیشه ممکن است میزان اهمیت هر بردار ویژه متناسب است با بزرگی مقدار ویژه متناظر مقدارویژه بزرگ تر=بردار ویژه با اهمیت بیشتر 30

31 PCA بدست آوردن ماتريس تبديل )λ i ( )Φ i ( گام چهارم: ساخت ماتریس تبدیل T از روی بردارهای ویژه و مقادیر ویژه بردار ویژه متناسب با Φ1 1 بزرگترین مقدار ویژه بردار ویژه متناسب با کوچک ترین مقدار ویژه Φ2 2.. T, ; d... n Φd d.. Φ به بردارهای ویژه اجزای اصلی میگویند n n ماتریس تبدیل T یک ماتریس n n است برای کاهش بعد ( زا n به )d n فقط d سطر اول )متناسب با d بردار ویژه مهمتر( استفاده میشود 31

32 استفاده از تبديل PCA X k با ماتریس تبدیل T میتوان بردارهای ( X k و یا هر بردار تصادفی مثل Z را که همنوع و هماندازه بردارهای است( را به فضای جدید نگاشت و اجزای اصلی آنرا بدست آورد Y T.( Z μ ) T i i i zi Y Φ ( Z ) z اجزای اصلی جدید )محورهای جدید( عملکرد تبدیل T: نگاشت دادهها به فضایی جدید با محورهای اصلی متناظر با بردارهای ویژه )اجزای اصلی( محور اصلی اول به تنهایی قادر به جدا سازی دادههاست 32

33 Y T.( Z μ )... PCA خواص تبديل z تبدیل خطی است T 1 T T 1 T معکوس پذیر است و T میتوان ویژگیهای جدید را به فضای اولیه برگرداند: کاربرد در فشردهسازی و حذف نویز علت معکوسپذیر بودن: برای ماتریسی که سطرهای آن از بردارهای متعامد تشکیل شده داریم T T Z T. Y μ z پس X ناهمبسته کردن بردارهای نگاشت شده Y توسط این تبدیل μy E{ Y} بردارهای Yدارای میانگین صفر هستند 0 ماتریس کواریانس Y قطری با مقادیر برابر مقادیر ویژه ماتریس کواریانس T y x n C T.C T n تبدیل سفیدسازی )whitening( 33

34 ... PCA خواص تبديل کمینه کردن خطای کاهش بعد )فشرده سازی( با کمینهسازی مربعات میانگین خطا در صورت عدم استفاده از همه اجزای اصلی )ماتریس تبدیل )n n و استفاده از d بردار ویژه مهمتر کاهش بعد )فشردهسازی( دارای خطا )lossy( خوهد بود خطای حاصل توسط PCA از هر تبدیل مشابهی کمتر است Y T X μ Xˆ T Y μ T ( d 1) ( d n).( ( n1) x ) ( n1) ( nd ). ( d 1) x 1/2 n d n ( ˆ ) i j 1 j 1 j d 1 e X Xˆ x x ms i i j j j مقدار خطا برابر است با مقدار خطا = جمع مقادیر ویژهای هستند که بردار ویژه متناظر آنها در ماتریس تبدیل حذف شده خطا برابر جمع (n-d) مقدار ویژه کوچکتر است == کمینه بودن خطا تبدیل به گونه ای داده ها را نگاشت می کند که خطای نگاشت کمینه باشد 34

35 ... PCA خواص تبديل کمینه کردن خطای کاهش نگاشت محور نگاشت بهتر محوری است که در راستای واریانس بیشتر باشد نگاشت از دو بعد به یک بعد خطای نگاشت باال محور نامناسب برای نگاشت نگاشت از دو بعد به یک بعد خطای نگاشت کم محور مناسب برای نگاشت توزیع واریانس در راستای هر کدام از محورهای جدید متناظر با مقدار ویژه آن بردار هر چه مقادیر ویژه بزرگ تر باشند بردار ویژه متناظر دارای اهمیت بیشتری است V k n i1 k i واریانس محور جدید 35

36 ... PCA خواص تبديل محور نگاشت مهمتر = محوری در راستای واریانس بیشتر سوال: نحوه تعیین مقدار d )چه تعداد ویژگی حذف شود ( 36

37 PCA خواص تبديل کاهش خطای نگاشت 37

38 تعیین مقدار d )تعداد ويژگي هاي جديد در حوزه )PCA استفاده از مقادیر ویژه متناسب با بردارهای ویژه با توجه به برابر بودن خطا با جمع (n-d) مقدار ویژه کوچکتر برای حفظ %99 از واریانس دادهها مقدار d را طوری تعیین میکنیم که d i 1 n i 1 i i 0.99 در برخی از کاربردها با تعداد ویژگیهای زیاد تعداد زیادی از آنها میتواند حذف شود( λهای i برابر صفر است )محور جدید 38

39 مشکل PCA )در دستهبندي( تبدیل PCA حفظ بیشترین مقدار واریانس دادهها برای نمایش داده ها بهینه شده است که الزاما به معنی مناسب بودن آن برای دسته بندی نیست بستگی به جهت بیشترین واریانس داده ها دارد مثال: واریانس دو دسته در یک جهت است اثر منفی تبدیل در دستهبندی 39

40 رابطه PCA و SVD: Singular Value Decomposition PCAحالت خاصی از SVD است قضیه: اگر ماتریس مربعی n*n مانند C حقیقی و متقاورن ( T )C=C باشد آنگاه داریم T ( nn) ( nn). ( nn). ( nn) C Φ Λ Φ ماتریس قطری با مقادیر ماتریس بردارهای ویژه C ویژه C در قطر اصلی Λ ( nn) n T ( nm ) ( nr ). ( rr ). ( rm) C U Σ V تجزیه با SVD r برابر است با مرتبه )rank( ماتریس = C تعداد سطرها/ستوهای غیروابسته ماتریس U هم دارای ستونهای متعامد است ماتریس Σ قطری بوده و عناصر روی قطر اصلی مقادیر تکین value( )singular هستند )مرتب شده از بزرگ به کوجک( 40

41 درصد دقت تشخیص درس: بازشناسی آماری آلگو- آنتخاب و آستخرآج ویژگی مثال: کاهش تعداد ويژگيها در تشخیص گفتار: براي دادههاي تمیز کاهش ویژگیها از 36 افزایش 40 %ی سرعت به 25 خطا را افزایش نداده است بعد از استفاده از تبدیل PCA تعداد ویژگی ها بدون تبدیل PCA 41

42 درصد دقت تشخیص درس: بازشناسی آماری آلگو- آنتخاب و آستخرآج ویژگی مثال: کاهش تعداد ويژگيها در تشخیص گفتار: براي دادههاي تمیز کاهش ویژگیها از 36 به 25 دقت را به میزان %22 افزایش داده است علت: حذف مولفههای نویزی کاهش ویژگی ها از 36 به = 25 افزایش 40 %ی سرعت بعد از استفاده از تبدیل PCA تعداد ویژگی ها 42

43 SVD و PCA کاربردهاي )مهم( در پردازش متن- (Indexing) LSA(I): Latent Semantic Analysis الگوریتم PageRank گوگل در فشردهسازی تصویر- تبدیل DCT: Discrete Cosine Transform JPEG استفاده میشود که در تبدیل DCT نزدیکترین تقریب PCA است که وابسته به داده نیست مصورسازی دادهها Visualization( )Data نگاشت داده ها به فضای دو بعدی 43

44 PCA( غیرخطي( PCA استفاده از شبکه عصبي به عنوان تابع فعالسازی = غیرخطی )سیگموید( X u X f 1 f 2 f 3 f 4 h (x) تابع فعالسازی خطی )همانی( الیه bottleneck h (u) معکوس تبدیل اعمال تبدیل 44

45 اسم ديگر: تحلیل تفکیک فیشر ايده اصلي )FDA: Fisher Discriminant Analysis( ویژگیها به گونهای نگاشت میشوند که دستههای مختلف بیشتر از هم تفکیک شوند نگاشت از دو بعد به یک بعد تفکیک پذیری بیشتر دسته ها محور مناسب برای نگاشت نگاشت از دو بعد به یک بعد تفکیک پذیری کمتر دسته ها محور نامناسب برای نگاشت 45

46 ... LDA عملکرد هدف: نگاشت ویژگی ها به گونه ای که دسته های مختلف از هم تفکیک بیشتری شوند فرض کنید دو دسته با ویژگیهای n بعدی داریم تعداد نمونه های دسته اول n 1 نمونه و تعداد نمونه های دسته دوم است n 2 نگاشت بردار x i بر روی محور v برابر است با v t x i مقدار v t x i )یک عدد( برابر است با فاصله نگاشت x i از مرکز است معیار مورد نیاز برای تفکیک بیشینه بین دو کالس اگر μ 1 میانگین نمونههای دسته اول و μ 2 میانگین نمونههای دسته دوم باشد و شده آنها باشد فاصله بین دو مقدار میانگین نگاشت شده 1 μ 1 - μ معیار مناسبی است و μ 1 μ 1 معادل نگاشت 46

47 ... LDA عملکرد اما در نظر گرفتن میانگین به تنهایی کافی نیست داریم اما نگاشت روی محور عمودی بهتر است چون تفکیک بیشتری بین دسته ها آیجاد کرده آست بنابراین باید واریانس داده ها هم در نظر گرفته شود. فاصله میانگین ها به مقدار واریانس داده ها نرمال شود 47

48 LDA عملکرد معیار پراکندگی :)scatter( مقدار واریانس ضرب در تعداد نمونهها مشابه واریانس بیانگر میزان پراکندگی داده ها در اطراف میانگین است هدف LDA بیشینه کردن معیار زیر است میانگین ها بیشترین فاصله را از همدیگر داشته باشند پراکندگی آنها کمترین مقدار باشد 48

49 1 i 1... بدست اوردن LDA باید J را به عنوان تابعی از v بنویسیم و آن را بیشینه کنیم 1 i 1 مشتق گرفتن و برابر صفر قرار دادن t t t t t t t t i i i i x C x C S v x v x v x v v x v i t ( i ) ( i ) i i t t t t t x C x C v x v x v x x v v S v i داریم S 2 t 2 2 و v S v 2 2 t 2 t 2 t S S v S v v S v v S v W بنا بر ای ن )within( که پراکندگی درون دسته ای است S S S W 49

50 2 t t t t t v v v v v S v بدست اوردن. LDA.. B از طرفی داریم )between( که پراکندگی بین دسته ای است S B t این مقدار بیانگر پراکندگی داده های دو دسته در بین میانگین ها قبل از نگاشت است بنابراین داریم بیشیه کردن J نسبت به v: مشتق گرفتن و برابر صفر قرار دادن 50

51 t v S v S v t v S v S v 0 W B B W LDA بدست اوردن پس باید داریم 1 W S S v v S Bv B دارای معکوس باشد رابطه فوق به رابطه مقدار ویژه تبدیل می شود t v S v S v v S B 1 2 W W 1 2 اگر S W S B v در جهت یکسانی با μ 1 -μ 2 است چون W 1 v S 1 2 اما اندازه v مهم نیست پس 51

52 n2 است LDA الگوريتم فرض: دو دسته با ویژگی های nبعدی تعداد نمونههای دسته اول n1 نمونه و تعداد نمونههای دسته دوم S 2 S 1 μ 2 گام اول: میانگین نمونه های دو دسته μ 1 و و پراکندگی آنها و را حساب کنید S S S W )within( گام دوم: مقدار پراکندگی درون دسته ای را حساب کن W 1 v S 1 2 گام سوم: محاسبه بردار نگاشت v y i = v t x i گام چهارم: نگاشت داده ها )به فضای یک بعدی( با بردار نگاشت بدست آمده نگاشت داده n بعدی به داده یک بعدی! 52

53 ... مثال- دو دسته دو بعدي دسته اول 5 نمونه دو بعدی: (5,5)} (4,5), (3,3), (2,3), ={(1,2), 1 C دسته دوم 6 نمونه دو بعدی: (6,5)} (5,3), (3,2), (3,1), (2,1), ={(1,0), 2 C S 2 S 1 μ 2 گام اول: میانگین نمونه های دو دسته μ 1 و و پراکندگی آنها و را حساب کنید [ ] 1 [ ] 2 S S (5 1) ( ) Cov C (6 1) ( ) Cov C 2 گام دوم: مقدار پراکندگی درون دستهای )within( را حساب کن SW S1 S 2 S W

54 مثال- دو دسته دو بعدي... محاسبه بردار نگاشت v v SW گام سوم: y i = v t x i گام چهارم: نگاشت داده ها به فضای یک بعدی با بردار نگاشت بدست آمده t y1 v x 1... x t y 2 v x 1... x

55 مثال- دو دسته دو بعدي نکته: محل دقیق خط نگاشت مهم نیست جهت آن مهم است 55

56 حالت کلي LDA براي C دسته تحلیل تفکیک چندگانه Analysis( )MDA: Multiple Discriminant n i فرض: C دسته با ویژگیهای nبعدی تعداد نمونههای دسته i ما = تعداد کل نمونهها = n... الگوريتم گام اول: محاسبه میانگین نمونههای هردسته μ i میانگین کل دادهها μ i 1 n i x i C i x i 1 1 x n All x i C n i i i n i 1 گام دوم: محاسبه ماتریس پراکندگی درون دسته ای S W و بین دسته ای S B C t SW S i x k i x k i S n B i i i i 1 C C i 1 i 1 x k C i t 56

57 الگوريتم... نحوه محاسبه ماتریس پراکندگی بین دسته ای S B )گام دوم(: داریم: کل پراکندگی داده ها = پراکندگی بین دسته ای و پراکندگی درون دسته ای S S S T W B S B میتوان نوشت t T i i i i i i i i All x i 1 x C C i i i t x x i i i i i i i 1 x C i 1 x C i i i i C W i i i i 1 C S x x x x S n t C t t 57

58 ... الگوريتم گام سوم: محاسبه بردار نگاشت v t det تابع هدف v S Bv Jv ( ) t det v S v معادل حل مساله مقدار ویژه تعمیم یافته یافتن مقادیر و بردارهای ویژه برای این رابطه S v B S v W در صورت معکوس پذیر بودن S W رابطه فوق به مساله مقدار ویژه عادی تبدیل می شود ماتریس v از کنار هم قراردادن بردارهای ویژه بدست آمده حاصل میشود: هر سطر ماتریس v معادل یکی از بردارهای ویژه است. بردارهای ویژه به ترتیب اهمیت )مقادیر ویژه( چیده میشوند. ماتریس v حاصل در رابطه فوق یکتا نیست )میتواند مقیاس و زاویه آن عوض شود( اما این در دستهبندی تاثیرگذار نیست. ماتریس S B حداکثر دارای مرتبه )rank( برابر با 1-C است W مرتبه: حداکثر تعداد سطرها)ستون ها(ی مستقل خطی ماتریس 58

59 الگوريتم y i = v t x i گام چهارم: نگاشت داده ها با ماتریس نگاشت بدست آمده ماتریس v حاصل دارای اندازه n (C-1) است یعنی تبدیل فوق بردار n بعدی را حداکثر به فضای ( C-1 )بعدی نگاشت میکند باید ) n =ابعاد n C ویژگیها و C =تعداد دستهها( میتوان کاهش بعد از n را به 1-C,,2,1 داشت 59

60 مشکالت کاهش بعد را حداکثر تا میتوان تا 1-C داشت )بر خالف )PCA برای دادههای پیچیده حتی نگاشت به بهترین سطر هم ممکن است دادهها را غیرقابل تفکیک کند مثال 2 عدم موفقیت در موارد زیر اگر J(v)=0 باشد: میانگین دادهها برابر باشد )تفکیک فقط در واریانس است( مثال 1 PCA موفق عمل میکند PCA هم ناموفق است اگر J(v) بزرگ باشد: دادهها بعد از نگاشت همپوشانی زیادی دارند در آین حالت PCA هم موفق نیست 60

61 تبديل PCA بدون ناظر است استفاده از واریانس کل دادهها )به کارگیری ماتریس پراکندگی کل( تبديل LDA با ناظر است استفاده از نسبت پراکندگی بین دستهها به پراکندگی درون دستهها در شرايط زير PCA بهتر از LDA اگر تعداد نمونه های هر دسته کم باشد است ماتریس پراکندگی داده ها برای هر دسته به خوبی تخمین زده نمی شود اگر نمونه برداری صورت گرفته برای نمونه های آموزش به صورت غیریکنواخت از کل داده ها صورت گرفته باشد. 61

محاسبه ی برآیند بردارها به روش تحلیلی

محاسبه ی برآیند بردارها به روش تحلیلی محاسبه ی برآیند بردارها به روش تحلیلی برای محاسبه ی برآیند بردارها به روش تحلیلی باید توانایی تجزیه ی یک بردار در دو راستا ( محور x ها و محور y ها ) را داشته باشیم. به بردارهای تجزیه شده در راستای محور

Διαβάστε περισσότερα

تصاویر استریوگرافی.

تصاویر استریوگرافی. هب انم خدا تصاویر استریوگرافی تصویر استریوگرافی یک روش ترسیمی است که به وسیله آن ارتباط زاویه ای بین جهات و صفحات بلوری یک کریستال را در یک فضای دو بعدی )صفحه کاغذ( تعیین میکنند. کاربردها بررسی ناهمسانگردی

Διαβάστε περισσότερα

روش محاسبه ی توان منابع جریان و منابع ولتاژ

روش محاسبه ی توان منابع جریان و منابع ولتاژ روش محاسبه ی توان منابع جریان و منابع ولتاژ ابتدا شرح کامل محاسبه ی توان منابع جریان: برای محاسبه ی توان منابع جریان نخست باید ولتاژ این عناصر را بدست آوریم و سپس با استفاده از رابطه ی p = v. i توان این

Διαβάστε περισσότερα

مثال( مساله الپالس در ناحیه داده شده را حل کنید. u(x,0)=f(x) f(x) حل: به کمک جداسازی متغیرها: ثابت = k. u(x,y)=x(x)y(y) X"Y=-XY" X" X" kx = 0

مثال( مساله الپالس در ناحیه داده شده را حل کنید. u(x,0)=f(x) f(x) حل: به کمک جداسازی متغیرها: ثابت = k. u(x,y)=x(x)y(y) XY=-XY X X kx = 0 مثال( مساله الپالس در ناحیه داده شده را حل کنید. (,)=() > > < π () حل: به کمک جداسازی متغیرها: + = (,)=X()Y() X"Y=-XY" X" = Y" ثابت = k X Y X" kx = { Y" + ky = X() =, X(π) = X" kx = { X() = X(π) = معادله

Διαβάστε περισσότερα

تخمین با معیار مربع خطا: حالت صفر: X: مکان هواپیما بدون مشاهده X را تخمین بزنیم. بهترین تخمین مقداری است که متوسط مربع خطا مینیمم باشد:

تخمین با معیار مربع خطا: حالت صفر: X: مکان هواپیما بدون مشاهده X را تخمین بزنیم. بهترین تخمین مقداری است که متوسط مربع خطا مینیمم باشد: تخمین با معیار مربع خطا: هدف: با مشاهده X Y را حدس بزنیم. :y X: مکان هواپیما مثال: مشاهده نقطه ( مجموعه نقاط کنارهم ) روی رادار - فرض کنیم می دانیم توزیع احتمال X به چه صورت است. حالت صفر: بدون مشاهده

Διαβάστε περισσότερα

شاخصهای پراکندگی دامنهی تغییرات:

شاخصهای پراکندگی دامنهی تغییرات: شاخصهای پراکندگی شاخصهای پراکندگی بیانگر میزان پراکندگی دادههای آماری میباشند. مهمترین شاخصهای پراکندگی عبارتند از: دامنهی تغییرات واریانس انحراف معیار و ضریب تغییرات. دامنهی تغییرات: اختالف بزرگترین و

Διαβάστε περισσότερα

همبستگی و رگرسیون در این مبحث هدف بررسی وجود یک رابطه بین دو یا چند متغیر می باشد لذا هدف اصلی این است که آیا بین

همبستگی و رگرسیون در این مبحث هدف بررسی وجود یک رابطه بین دو یا چند متغیر می باشد لذا هدف اصلی این است که آیا بین همبستگی و رگرسیون در این مبحث هدف بررسی وجود یک رابطه بین دو یا چند متغیر می باشد لذا هدف اصلی این است که آیا بین دو صفت متغیر x و y رابطه و همبستگی وجود دارد یا خیر و آیا می توان یک مدل ریاضی و یک رابطه

Διαβάστε περισσότερα

جلسه 3 ابتدا نکته اي در مورد عمل توابع بر روي ماتریس ها گفته می شود و در ادامه ي این جلسه اصول مکانیک کوانتمی بیان. d 1. i=0. i=0. λ 2 i v i v i.

جلسه 3 ابتدا نکته اي در مورد عمل توابع بر روي ماتریس ها گفته می شود و در ادامه ي این جلسه اصول مکانیک کوانتمی بیان. d 1. i=0. i=0. λ 2 i v i v i. محاسبات کوانتمی (671) ترم بهار 1390-1391 مدرس: سلمان ابوالفتح بیگی نویسنده: محمد جواد داوري جلسه 3 می شود. ابتدا نکته اي در مورد عمل توابع بر روي ماتریس ها گفته می شود و در ادامه ي این جلسه اصول مکانیک

Διαβάστε περισσότερα

مفاهیم ولتاژ افت ولتاژ و اختالف پتانسیل

مفاهیم ولتاژ افت ولتاژ و اختالف پتانسیل مفاهیم ولتاژ افت ولتاژ و اختالف پتانسیل شما باید بعد از مطالعه ی این جزوه با مفاهیم ولتاژ افت ولتاژ و اختالف پتانسیل کامال آشنا شوید. VA R VB به نظر شما افت ولتاژ مقاومت R چیست جواب: به مقدار عددی V A

Διαβάστε περισσότερα

آزمایش 1: پاسخ فرکانسی تقویتکننده امیتر مشترك

آزمایش 1: پاسخ فرکانسی تقویتکننده امیتر مشترك آزمایش : پاسخ فرکانسی تقویتکننده امیتر مشترك -- مقدمه هدف از این آزمایش بدست آوردن فرکانس قطع بالاي تقویتکننده امیتر مشترك بررسی عوامل تاثیرگذار و محدودکننده این پارامتر است. شکل - : مفهوم پهناي باند تقویت

Διαβάστε περισσότερα

آزمون مقایسه میانگین های دو جامعه )نمونه های بزرگ(

آزمون مقایسه میانگین های دو جامعه )نمونه های بزرگ( آزمون مقایسه میانگین های دو جامعه )نمونه های بزرگ( فرض کنید جمعیت یک دارای میانگین و انحراف معیار اندازه µ و انحراف معیار σ باشد و جمعیت 2 دارای میانگین µ2 σ2 باشند نمونه های تصادفی مستقل از این دو جامعه

Διαβάστε περισσότερα

جلسه ی ۱۰: الگوریتم مرتب سازی سریع

جلسه ی ۱۰: الگوریتم مرتب سازی سریع دانشکده ی علوم ریاضی داده ساختارها و الگوریتم ها ۸ مهر ۹ جلسه ی ۱۰: الگوریتم مرتب سازی سریع مدر س: دکتر شهرام خزاي ی نگارنده: محمد امین ادر یسی و سینا منصور لکورج ۱ شرح الگور یتم الگوریتم مرتب سازی سریع

Διαβάστε περισσότερα

سايت ويژه رياضيات درسنامه ها و جزوه هاي دروس رياضيات

سايت ويژه رياضيات   درسنامه ها و جزوه هاي دروس رياضيات سايت ويژه رياضيات درسنامه ها و جزوه هاي دروس رياضيات دانلود نمونه سوالات امتحانات رياضي نمونه سوالات و پاسخنامه كنكور دانلود نرم افزارهاي رياضيات و... کانال سایت ریاضی سرا در تلگرام: https://telegram.me/riazisara

Διαβάστε περισσότερα

پروژه یازدهم: ماشین هاي بردار پشتیبان

پروژه یازدهم: ماشین هاي بردار پشتیبان پروژه یازدهم: ماشین هاي بردار پشتیبان 1 عموما براي مسایلی که در آنها دو دسته وجود دارد استفاده میشوند اما ماشین هاي بردار پشتیبان روشهاي متفاوتی براي ترکیب چند SVM و ایجاد یک الگوریتم دستهبندي چند کلاس

Διαβάστε περισσότερα

فصل دهم: همبستگی و رگرسیون

فصل دهم: همبستگی و رگرسیون فصل دهم: همبستگی و رگرسیون مطالب این فصل: )r ( کوواریانس ضریب همبستگی رگرسیون ضریب تعیین یا ضریب تشخیص خطای معیار برآور ( )S XY انواع ضرایب همبستگی برای بررسی رابطه بین متغیرهای کمی و کیفی 8 در بسیاری

Διαβάστε περισσότερα

تحلیل مدار به روش جریان حلقه

تحلیل مدار به روش جریان حلقه تحلیل مدار به روش جریان حلقه برای حل مدار به روش جریان حلقه باید مراحل زیر را طی کنیم: مرحله ی 1: مدار را تا حد امکان ساده می کنیم)مراقب باشید شاخه هایی را که ترکیب می کنید مورد سوال مسئله نباشد که در

Διαβάστε περισσότερα

جلسه ی ۴: تحلیل مجانبی الگوریتم ها

جلسه ی ۴: تحلیل مجانبی الگوریتم ها دانشکده ی علوم ریاضی ساختمان داده ها ۲ مهر ۱۳۹۲ جلسه ی ۴: تحلیل مجانبی الگوریتم ها مدر س: دکتر شهرام خزاي ی نگارنده: شراره عز ت نژاد ا رمیتا ثابتی اشرف ۱ مقدمه الگوریتم ابزاری است که از ا ن برای حل مسا

Διαβάστε περισσότερα

آزمایش 8: تقویت کننده عملیاتی 2

آزمایش 8: تقویت کننده عملیاتی 2 آزمایش 8: تقویت کننده عملیاتی 2 1-8 -مقدمه 1 تقویت کننده عملیاتی (OpAmp) داراي دو یا چند طبقه تقویت کننده تفاضلی است که خروجی- هاي هر طبقه به وروديهاي طبقه دیگر متصل شده است. در انتهاي این تقویت کننده

Διαβάστε περισσότερα

جلسه 14 را نیز تعریف کرد. عملگري که به دنبال آن هستیم باید ماتریس چگالی مربوط به یک توزیع را به ماتریس چگالی مربوط به توزیع حاشیه اي آن ببرد.

جلسه 14 را نیز تعریف کرد. عملگري که به دنبال آن هستیم باید ماتریس چگالی مربوط به یک توزیع را به ماتریس چگالی مربوط به توزیع حاشیه اي آن ببرد. تي وري اطلاعات کوانتمی ترم پاییز 39-39 مدرس: ابوالفتح بیگی و امین زاده گوهري نویسنده: کامران کیخسروي جلسه فرض کنید حالت سیستم ترکیبی AB را داشته باشیم. حالت سیستم B به تنهایی چیست در ابتداي درس که حالات

Διαβάστε περισσότερα

هو الحق دانشکده ي مهندسی کامپیوتر جلسه هفتم

هو الحق دانشکده ي مهندسی کامپیوتر جلسه هفتم هو الحق دانشکده ي مهندسی کامپیوتر کدگذاري شبکه Coding) (Network شنبه 2 اسفند 1393 جلسه هفتم استاد: مهدي جعفري نگارنده: سید محمدرضا تاجزاد تعریف 1 بهینه سازي محدب : هدف پیدا کردن مقدار بهینه یک تابع ) min

Διαβάστε περισσότερα

قاعده زنجیره ای برای مشتقات جزي ی (حالت اول) :

قاعده زنجیره ای برای مشتقات جزي ی (حالت اول) : ۱ گرادیان تابع (y :f(x, اگر f یک تابع دومتغیره باشد ا نگاه گرادیان f برداری است که به صورت زیر تعریف می شود f(x, y) = D ۱ f(x, y), D ۲ f(x, y) اگر رویه S نمایش تابع (y Z = f(x, باشد ا نگاه f در هر نقطه

Διαβάστε περισσότερα

جلسه 9 1 مدل جعبه-سیاه یا جستاري. 2 الگوریتم جستجوي Grover 1.2 مسا له 2.2 مقدمات محاسبات کوانتمی (22671) ترم بهار

جلسه 9 1 مدل جعبه-سیاه یا جستاري. 2 الگوریتم جستجوي Grover 1.2 مسا له 2.2 مقدمات محاسبات کوانتمی (22671) ترم بهار محاسبات کوانتمی (22671) ترم بهار 1390-1391 مدرس: سلمان ابوالفتح بیگی نویسنده: هیربد کمالی نیا جلسه 9 1 مدل جعبه-سیاه یا جستاري مدل هایی که در جلسه ي پیش براي استفاده از توابع در الگوریتم هاي کوانتمی بیان

Διαβάστε περισσότερα

مسائل. 2 = (20)2 (1.96) 2 (5) 2 = 61.5 بنابراین اندازه ی نمونه الزم باید حداقل 62=n باشد.

مسائل. 2 = (20)2 (1.96) 2 (5) 2 = 61.5 بنابراین اندازه ی نمونه الزم باید حداقل 62=n باشد. ) مسائل مدیریت کارخانه پوشاک تصمیم دارد مطالعه ای به منظور تعیین میانگین پیشرفت کارگران کارخانه انجام دهد. اگر او در این مطالعه دقت برآورد را 5 نمره در نظر بگیرد و فرض کند مقدار انحراف معیار پیشرفت کاری

Διαβάστε περισσότερα

جلسه 2 1 فضاي برداري محاسبات کوانتمی (22671) ترم بهار

جلسه 2 1 فضاي برداري محاسبات کوانتمی (22671) ترم بهار محاسبات کوانتمی (22671) ترم بهار 1390-1391 مدرس: سلمان ابوالفتح بیگی نویسنده: نادر قاسمی جلسه 2 در این درسنامه به مروري کلی از جبر خطی می پردازیم که هدف اصلی آن آشنایی با نماد گذاري دیراك 1 و مباحثی از

Διαβάστε περισσότερα

آموزش SPSS مقدماتی و پیشرفته مدیریت آمار و فناوری اطالعات -

آموزش SPSS مقدماتی و پیشرفته مدیریت آمار و فناوری اطالعات - آموزش SPSS مقدماتی و پیشرفته تهیه و تنظیم: فرزانه صانعی مدیریت آمار و فناوری اطالعات - مهرماه 96 بخش سوم: مراحل تحلیل آماری تحلیل داده ها به روش پارامتری بررسی نرمال بودن توزیع داده ها قضیه حد مرکزی جدول

Διαβάστε περισσότερα

جلسه 22 1 نامساویهایی در مورد اثر ماتریس ها تي وري اطلاعات کوانتومی ترم پاییز

جلسه 22 1 نامساویهایی در مورد اثر ماتریس ها تي وري اطلاعات کوانتومی ترم پاییز تي وري اطلاعات کوانتومی ترم پاییز 1391-1392 مدرس: ابوالفتح بیگی و امین زاده گوهري نویسنده: محمد مهدي مجاهدیان جلسه 22 تا اینجا خواص مربوط به آنتروپی را بیان کردیم. جهت اثبات این خواص نیاز به ابزارهایی

Διαβάστε περισσότερα

جلسه 15 1 اثر و اثر جزي ی نظریه ي اطلاعات کوانتومی 1 ترم پاي یز جدایی پذیر باشد یعنی:

جلسه 15 1 اثر و اثر جزي ی نظریه ي اطلاعات کوانتومی 1 ترم پاي یز جدایی پذیر باشد یعنی: نظریه ي اطلاعات کوانتومی 1 ترم پاي یز 1391-1391 مدرس: دکتر ابوالفتح بیگی ودکتر امین زاده گوهري نویسنده: محمدرضا صنم زاده جلسه 15 فرض کنیم ماتریس چگالی سیستم ترکیبی شامل زیر سیستم هايB و A را داشته باشیم.

Διαβάστε περισσότερα

جلسه دوم سوم چهارم: مقدمه اي بر نظریه میدان

جلسه دوم سوم چهارم: مقدمه اي بر نظریه میدان هو الحق دانشکده ي مهندسی کامپیوتر کدگذاري شبکه Coding) (Network سه شنبه 21 اسفند 1393 جلسه دوم سوم چهارم: مقدمه اي بر نظریه میدان استاد: مهدي جعفري نگارنده: علیرضا حیدري خزاي ی در این نوشته مقدمه اي بر

Διαβάστε περισσότερα

هندسه تحلیلی بردارها در فضای R

هندسه تحلیلی بردارها در فضای R هندسه تحلیلی بردارها در فضای R فصل اول-بردارها دستگاه مختصات سه بعدی از سه محور ozوoyوox عمود بر هم تشکیل شده که در نقطه ای به نام o یکدیگر را قطع می کنند. قرارداد: دستگاه مختصات سه بعدی راستگرد می باشد

Διαβάστε περισσότερα

تلفات خط انتقال ابررسی یک شبکة قدرت با 2 به شبکة شکل زیر توجه کنید. ژنراتور فرضیات شبکه: میباشد. تلفات خط انتقال با مربع توان انتقالی متناسب

تلفات خط انتقال ابررسی یک شبکة قدرت با 2 به شبکة شکل زیر توجه کنید. ژنراتور فرضیات شبکه: میباشد. تلفات خط انتقال با مربع توان انتقالی متناسب تلفات خط انتقال ابررسی یک شبکة قدرت با 2 به شبکة شکل زیر توجه کنید. ژنراتور فرضیات شبکه: این شبکه دارای دو واحد کامال یکسان آنها 400 MW میباشد. است تلفات خط انتقال با مربع توان انتقالی متناسب و حداکثر

Διαβάστε περισσότερα

Angle Resolved Photoemission Spectroscopy (ARPES)

Angle Resolved Photoemission Spectroscopy (ARPES) Angle Resolved Photoemission Spectroscopy (ARPES) روش ARPES روشی است تجربی که برای تعیین ساختار الکترونی مواد به کار می رود. این روش بر پایه اثر فوتوالکتریک است که توسط هرتز کشف شد: الکترونها می توانند

Διαβάστε περισσότερα

جلسه ی ۵: حل روابط بازگشتی

جلسه ی ۵: حل روابط بازگشتی دانشکده ی علوم ریاضی ساختمان داده ها ۶ مهر ۲ جلسه ی ۵: حل روابط بازگشتی مدر س: دکتر شهرام خزاي ی نگارنده: ا رمیتا ثابتی اشرف و علی رضا علی ا بادیان ۱ مقدمه پیدا کردن کران مجانبی توابع معمولا با پیچیدگی

Διαβάστε περισσότερα

بسم اهلل الرحمن الرحیم آزمایشگاه فیزیک )2( shimiomd

بسم اهلل الرحمن الرحیم آزمایشگاه فیزیک )2( shimiomd بسم اهلل الرحمن الرحیم آزمایشگاه فیزیک )( shimiomd خواندن مقاومت ها. بررسی قانون اهم برای مدارهای متوالی. 3. بررسی قانون اهم برای مدارهای موازی بدست آوردن مقاومت مجهول توسط پل وتسون 4. بدست آوردن مقاومت

Διαβάστε περισσότερα

مدار معادل تونن و نورتن

مدار معادل تونن و نورتن مدار معادل تونن و نورتن در تمامی دستگاه های صوتی و تصویری اگرچه قطعات الکتریکی زیادی استفاده می شود ( مانند مقاومت سلف خازن دیود ترانزیستور IC ترانس و دهها قطعه ی دیگر...( اما هدف از طراحی چنین مداراتی

Διαβάστε περισσότερα

جلسه 2 جهت تعریف یک فضاي برداري نیازمند یک میدان 2 هستیم. یک میدان مجموعه اي از اعداد یا اسکالر ها به همراه اعمال

جلسه 2 جهت تعریف یک فضاي برداري نیازمند یک میدان 2 هستیم. یک میدان مجموعه اي از اعداد یا اسکالر ها به همراه اعمال نظریه اطلاعات کوانتمی 1 ترم پاییز 1391-1392 مدرسین: ابوالفتح بیگی و امین زاده گوهري جلسه 2 فراگیري نظریه ي اطلاعات کوانتمی نیازمند داشتن پیش زمینه در جبرخطی می باشد این نظریه ترکیب زیبایی از جبرخطی و نظریه

Διαβάστε περισσότερα

دانشکده ی علوم ریاضی جلسه ی ۵: چند مثال

دانشکده ی علوم ریاضی جلسه ی ۵: چند مثال دانشکده ی علوم ریاضی احتمال و کاربردا ن ۴ اسفند ۹۲ جلسه ی : چند مثال مدر س: دکتر شهرام خزاي ی نگارنده: مهدی پاک طینت (تصحیح: قره داغی گیوه چی تفاق در این جلسه به بررسی و حل چند مثال از مطالب جلسات گذشته

Διαβάστε περισσότερα

جلسه 12 به صورت دنباله اي از,0 1 نمایش داده شده اند در حین محاسبه ممکن است با خطا مواجه شده و یکی از بیت هاي آن. p 1

جلسه 12 به صورت دنباله اي از,0 1 نمایش داده شده اند در حین محاسبه ممکن است با خطا مواجه شده و یکی از بیت هاي آن. p 1 محاسبات کوانتمی (67) ترم بهار 390-39 مدرس: سلمان ابوالفتح بیگی نویسنده: سلمان ابوالفتح بیگی جلسه ذخیره پردازش و انتقال اطلاعات در دنیاي واقعی همواره در حضور خطا انجام می شود. مثلا اطلاعات کلاسیکی که به

Διαβάστε περισσότερα

ویرایشسال 95 شیمیمعدنی تقارن رضافالحتی

ویرایشسال 95 شیمیمعدنی تقارن رضافالحتی ویرایشسال 95 شیمیمعدنی تقارن رضافالحتی از ابتدای مبحث تقارن تا ابتدای مبحث جداول کاراکتر مربوط به کنکور ارشد می باشد افرادی که این قسمت ها را تسلط دارند می توانند از ابتدای مبحث جداول کاراکتر به مطالعه

Διαβάστε περισσότερα

1) { } 6) {, } {{, }} 2) {{ }} 7 ) { } 3) { } { } 8) { } 4) {{, }} 9) { } { }

1) { } 6) {, } {{, }} 2) {{ }} 7 ) { } 3) { } { } 8) { } 4) {{, }} 9) { } { } هرگاه دسته اي از اشیاء حروف و اعداد و... که کاملا"مشخص هستند با هم در نظر گرفته شوند یک مجموعه را به وجود می آورند. عناصر تشکیل دهنده ي یک مجموعه باید دو شرط اساسی را داشته باشند. نام گذاري مجموعه : الف

Διαβάστε περισσότερα

تئوری جامع ماشین بخش سوم جهت سادگی بحث یک ماشین سنکرون دو قطبی از نوع قطب برجسته مطالعه میشود.

تئوری جامع ماشین بخش سوم جهت سادگی بحث یک ماشین سنکرون دو قطبی از نوع قطب برجسته مطالعه میشود. مفاهیم اصلی جهت آنالیز ماشین های الکتریکی سه فاز محاسبه اندوکتانس سیمپیچیها و معادالت ولتاژ ماشین الف ) ماشین سنکرون جهت سادگی بحث یک ماشین سنکرون دو قطبی از نوع قطب برجسته مطالعه میشود. در حال حاضر از

Διαβάστε περισσότερα

تمرینات درس ریاض عموم ٢. r(t) = (a cos t, b sin t), ٠ t ٢π. cos ٢ t sin tdt = ka۴. x = ١ ka ۴. m ٣ = ٢a. κds باشد. حاصل x٢

تمرینات درس ریاض عموم ٢. r(t) = (a cos t, b sin t), ٠ t ٢π. cos ٢ t sin tdt = ka۴. x = ١ ka ۴. m ٣ = ٢a. κds باشد. حاصل x٢ دانش اه صنعت شریف دانش ده ی علوم ریاض تمرینات درس ریاض عموم سری دهم. ١ سیم نازک داریم که روی دایره ی a + y x و در ربع اول نقطه ی,a را به نقطه ی a, وصل م کند. اگر چ ال سیم در نقطه ی y,x برابر kxy باشد جرم

Διαβάστε περισσότερα

جلسه ی ۳: نزدیک ترین زوج نقاط

جلسه ی ۳: نزدیک ترین زوج نقاط دانشکده ی علوم ریاضی ا نالیز الگوریتم ها ۴ بهمن ۱۳۹۱ جلسه ی ۳: نزدیک ترین زوج نقاط مدر س: دکتر شهرام خزاي ی نگارنده: امیر سیوانی اصل ۱ پیدا کردن نزدیک ترین زوج نقطه فرض می کنیم n نقطه داریم و می خواهیم

Διαβάστε περισσότερα

معادلهی مشخصه(کمکی) آن است. در اینجا سه وضعیت متفاوت برای ریشههای معادله مشخصه رخ میدهد:

معادلهی مشخصه(کمکی) آن است. در اینجا سه وضعیت متفاوت برای ریشههای معادله مشخصه رخ میدهد: شکل کلی معادلات همگن خطی مرتبه دوم با ضرایب ثابت = ٠ cy ay + by + و معادله درجه دوم = ٠ c + br + ar را معادلهی مشخصه(کمکی) آن است. در اینجا سه وضعیت متفاوت برای ریشههای معادله مشخصه رخ میدهد: c ١ e r١x

Διαβάστε περισσότερα

تمرین اول درس کامپایلر

تمرین اول درس کامپایلر 1 تمرین اول درس 1. در زبان مربوط به عبارت منظم زیر چند رشته یکتا وجود دارد (0+1+ϵ)(0+1+ϵ)(0+1+ϵ)(0+1+ϵ) جواب 11 رشته کنند abbbaacc را در نظر بگیرید. کدامیک از عبارتهای منظم زیر توکنهای ab bb a acc را ایجاد

Διαβάστε περισσότερα

جلسه 16 نظریه اطلاعات کوانتمی 1 ترم پاییز

جلسه 16 نظریه اطلاعات کوانتمی 1 ترم پاییز نظریه اطلاعات کوانتمی ترم پاییز 39-39 مدرسین: ابوالفتح بیگی و امین زاده گوهري نویسنده: محم دحسن آرام جلسه 6 تا اینجا با دو دیدگاه مختلف و دو عامل اصلی براي تعریف و استفاده از ماتریس چگالی جهت معرفی حالت

Διαβάστε περισσότερα

دبیرستان غیر دولتی موحد

دبیرستان غیر دولتی موحد دبیرستان غیر دلتی محد هندسه تحلیلی فصل دم معادله های خط صفحه ابتدا باید بدانیم که از یک نقطه به مازات یک بردار تنها یک خط می گذرد. با تجه به این مطلب برای نشتن معادله یک خط احتیاج به داشتن یک نقطه از خط

Διαβάστε περισσότερα

ﯽﺳﻮﻃ ﺮﯿﺼﻧ ﻪﺟاﻮﺧ ﯽﺘﻌﻨﺻ هﺎﮕﺸﻧاد

ﯽﺳﻮﻃ ﺮﯿﺼﻧ ﻪﺟاﻮﺧ ﯽﺘﻌﻨﺻ هﺎﮕﺸﻧاد دانشگاه صنعتی خواجه نصیر طوسی دانشکده برق - گروه کنترل آزمایشگاه کنترل سیستمهای خطی گزارش کار نمونه تابستان 383 به نام خدا گزارش کار آزمایش اول عنوان آزمایش: آشنایی با نحوه پیاده سازی الکترونیکی فرایندها

Διαβάστε περισσότερα

فعالیت = ) ( )10 6 ( 8 = )-4( 3 * )-5( 3 = ) ( ) ( )-36( = m n m+ m n. m m m. m n mn

فعالیت = ) ( )10 6 ( 8 = )-4( 3 * )-5( 3 = ) ( ) ( )-36( = m n m+ m n. m m m. m n mn درس»ریشه ام و توان گویا«تاکنون با مفهوم توان های صحیح اعداد و چگونگی کاربرد آنها در ریشه گیری دوم و سوم اعداد آشنا شده اید. فعالیت زیر به شما کمک می کند تا ضمن مرور آنچه تاکنون در خصوص اعداد توان دار و

Διαβάστε περισσότερα

به نام خدا. Sparse Coding ستاره فرامرزپور

به نام خدا. Sparse Coding ستاره فرامرزپور به نام خدا Sparse Coding ستاره فرامرزپور 120728399 1 فهرست مطالب مقدمه... 0 برخی کاربردها... 0 4... تنک: کدگذاری مبانی تجزیه معادله تنک:... 5 6...:α Sparse پیدا ه یا الگوریتم کردن ضریب یادگیری ه یا روش

Διαβάστε περισσότερα

فصل چهارم : مولتی ویبراتورهای ترانزیستوری مقدمه: فیدبک مثبت

فصل چهارم : مولتی ویبراتورهای ترانزیستوری مقدمه: فیدبک مثبت فصل چهارم : مولتی ویبراتورهای ترانزیستوری مقدمه: فیدبک مثبت در تقویت کننده ها از فیدبک منفی استفاده می نمودیم تا بهره خیلی باال نرفته و سیستم پایدار بماند ولی در فیدبک مثبت هدف فقط باال بردن بهره است در

Διαβάστε περισσότερα

یدنب هشوخ یاه متیروگلا

یدنب هشوخ یاه متیروگلا تحلیل خوشه ای مقدمه در این قسمت ابتدا چند تعریف بیان می کنیم و در ادامه به جزئیات این تعاریف و کاربردهای تحلیل خوشه ای در علوم مختلف می پردازیم و نیز با مشکالتی که در تحلیل خوشه ای مواجه هستیم اشاره ای

Διαβάστε περισσότερα

فهرست جزوه ی فصل دوم مدارهای الکتریکی ( بردارها(

فهرست جزوه ی فصل دوم مدارهای الکتریکی ( بردارها( فهرست جزوه ی فصل دوم مدارهای الکتریکی ( بردارها( رفتار عناصر L, R وC در مدارات جریان متناوب......................................... بردار و کمیت برداری.............................................................

Διαβάστε περισσότερα

تحلیل الگوریتم پیدا کردن ماکزیمم

تحلیل الگوریتم پیدا کردن ماکزیمم تحلیل الگوریتم پیدا کردن ماکزیمم امید اعتصامی پژوهشگاه دانشهاي بنیادي پژوهشکده ریاضیات 1 انگیزه در تحلیل الگوریتم ها تحلیل احتمالاتی الگوریتم ها روشی براي تخمین پیچیدگی محاسباتی یک الگوریتم یا مساله ي

Διαβάστε περισσότερα

هدف از این آزمایش آشنایی با رفتار فرکانسی مدارهاي مرتبه اول نحوه تأثیر مقادیر عناصر در این رفتار مشاهده پاسخ دامنه

هدف از این آزمایش آشنایی با رفتار فرکانسی مدارهاي مرتبه اول نحوه تأثیر مقادیر عناصر در این رفتار مشاهده پاسخ دامنه آزما ی ش شش م: پا س خ فرکا نس ی مدا رات مرتبه اول هدف از این آزمایش آشنایی با رفتار فرکانسی مدارهاي مرتبه اول نحوه تأثیر مقادیر عناصر در این رفتار مشاهده پاسخ دامنه و پاسخ فاز بررسی رفتار فیلتري آنها بدست

Διαβάστε περισσότερα

6- روش های گرادیان مبنا< سر فصل مطالب

6- روش های گرادیان مبنا< سر فصل مطالب 1 بنام خدا بهینه سازی شبیه سازی Simulation Optimization Lecture 6 روش های بهینه سازی شبیه سازی گرادیان مبنا Gradient-based Simulation Optimization methods 6- روش های گرادیان مبنا< سر فصل مطالب 2 شماره

Διαβάστε περισσότερα

آشنایی با پدیده ماره (moiré)

آشنایی با پدیده ماره (moiré) فلا) ب) آشنایی با پدیده ماره (moiré) توری جذبی- هرگاه روی ورقه شفافی چون طلق تعداد زیادی نوارهای خطی کدر هم پهنا به موازات یکدیگر و به فاصله های مساوی از هم رسم کنیم یک توری خطی جذبی به وجود می آید شکل

Διαβάστε περισσότερα

Delaunay Triangulations محیا بهلولی پاییز 93

Delaunay Triangulations محیا بهلولی پاییز 93 محیا بهلولی پاییز 93 1 Introduction در فصل های قبلی نقشه های زمین را به طور ضمنی بدون برجستگی در نظر گرفتیم. واقعیت این گونه نیست. 2 Introduction :Terrain یک سطح دوبعدی در فضای سه بعدی با یک ویژگی خاص

Διαβάστε περισσότερα

به نام خدا. الف( توضیح دهید چرا از این تکنیک استفاده میشود چرا تحلیل را روی کل سیگنال x[n] انجام نمیدهیم

به نام خدا. الف( توضیح دهید چرا از این تکنیک استفاده میشود چرا تحلیل را روی کل سیگنال x[n] انجام نمیدهیم پردازش گفتار به نام خدا نیمسال اول 59-59 دکتر صامتی تمرین سری سوم پیشبینی خطی و کدینگ شکلموج دانشکده مهندسی کامپیوتر زمان تحویل: 32 آبان 4259 تمرینهای تئوری: سوال 1. می دانیم که قبل از انجام تحلیل پیشبینی

Διαβάστε περισσότερα

مارکوف 1.مقدمه: سید مهدی صفوی محمد میکاییلی محمد پویان چکیده ما با مطالعه مدل مخفی میدان تصادفی مارکوف از الگوریتم EM

مارکوف 1.مقدمه: سید مهدی صفوی محمد میکاییلی محمد پویان چکیده ما با مطالعه مدل مخفی میدان تصادفی مارکوف از الگوریتم EM و بخش بندی تصاویر براساس مارکوف مدل میدان تصادفی مخفی 3 سید مهدی صفوی محمد میکاییلی محمد پویان -دانشجو گروه مهندسی پزشکی دانشکده فنی مهندسی دانشگاه شاهد 3- عضوهیات علمی دانشیار گروه مهندسی پزشکی دانشکده

Διαβάστε περισσότερα

هادي ويسي. دانشگاه تهران - دانشکده علوم و فنون نوين

هادي ويسي. دانشگاه تهران - دانشکده علوم و فنون نوين هادي ويسي h.veisi@ut.ac.ir دانشگاه تهران - دانشکده علوم و فنون نوين مقدمه: تبديل تشابهيابي بازیابی اطالعات سرقت علمی متن به بردار ويژگي بردار دودویی )Binary( بردار فراوانی عبارت )TF: Term-Frequency( معکوس

Διαβάστε περισσότερα

باشند و c عددی ثابت باشد آنگاه تابع های زیر نیز در a پیوسته اند. به شرطی که g(a) 0 f g

باشند و c عددی ثابت باشد آنگاه تابع های زیر نیز در a پیوسته اند. به شرطی که g(a) 0 f g تعریف : 3 فرض کنیم D دامنه تابع f زیر مجموعه ای از R باشد a D تابع f:d R در نقطه a پیوسته است هرگاه به ازای هر دنباله از نقاط D مانند { n a{ که به a همگراست دنبال ه ){ n }f(a به f(a) همگرا باشد. محتوی

Διαβάστε περισσότερα

نویسنده: محمدرضا تیموری محمد نصری مدرس: دکتر پرورش خالصۀ موضوع درس سیستم های مینیمم فاز: به نام خدا

نویسنده: محمدرضا تیموری محمد نصری مدرس: دکتر پرورش خالصۀ موضوع درس سیستم های مینیمم فاز: به نام خدا به نام خدا پردازش سیگنالهای دیجیتال نیمسال اول ۹۵-۹۶ هفته یازدهم ۹۵/۰8/2۹ مدرس: دکتر پرورش نویسنده: محمدرضا تیموری محمد نصری خالصۀ موضوع درس یا سیستم های مینیمم فاز تجزیه ی تابع سیستم به یک سیستم مینیمم

Διαβάστε περισσότερα

تابع هزینه حداقل میانگین مربعات توأم با حداقل واریانس خطا

تابع هزینه حداقل میانگین مربعات توأم با حداقل واریانس خطا تابع هزینه حداقل میانگین مربعات توأم با حداقل واریانس خطا فریبا پاکیزه حاجی یار هادی صدوقی یزدی دانشجوی کارشناسی ارشدگروه کامپیوتر دانشکده مهندسی دانشگاه فردوسی مشهد ایران f.pazehhajyar@stu.um.ac.r دانشیار

Διαβάστε περισσότερα

7- روش تقریب میانگین نمونه< سر فصل مطالب

7- روش تقریب میانگین نمونه< سر فصل مطالب 1 بنام خدا بهینه سازی شبیه سازی Simulation Optimization Lecture 7 روش تقریب میانگین نمونه Sample Average Approximation 7- روش تقریب میانگین نمونه< سر فصل مطالب 2 شماره عنوان فصل 1-7 معرفی 2-7 تقریب 3-7

Διαβάστε περισσότερα

تحلیل آماری جلسه اول )جمعه مورخه 1131/70/11(

تحلیل آماری جلسه اول )جمعه مورخه 1131/70/11( تحلیل آماری جلسه اول )جمعه مورخه 1131/70/11( سرفصل دروس: مفاهیم و تعاریف نمونه گیری و توزیع های نمونه ای برآورد کردن)نقطه ای فاصله ای( آزمون فرضیه آنالیز واریانس مدلهای خطی رگرسیون آزمون استقالل و جداول

Διαβάστε περισσότερα

دانشکده علوم ریاضی دانشگاه گیلان آزمون پایان ترم درس: هندسه منیفلد 1 باشد. دهید.f (gx) = (gof 1 )f X شده باشند سوالات بخش میان ترم

دانشکده علوم ریاضی دانشگاه گیلان آزمون پایان ترم درس: هندسه منیفلد 1 باشد. دهید.f (gx) = (gof 1 )f X شده باشند سوالات بخش میان ترم آزمون پایان ترم درس: هندسه منیفلد 1 زمان آزمون 120 دقیقه نیمسال: اول 95-94 رشته تحصیلی : ریاضی محض 1. نشان دهید X یک میدان برداري روي M است اگر و فقط اگر براي هر تابع مشتقپذیر f روي X(F ) M نیز مشتقپذیر

Διαβάστε περισσότερα

خالصه درس: نویسنده:مینا سلیمان گندمی و هاجر کشاورز امید ریاضی شرطی. استقالل متغیر های تصادفی پیوسته x و y استقالل و امید ریاضی

خالصه درس: نویسنده:مینا سلیمان گندمی و هاجر کشاورز امید ریاضی شرطی. استقالل متغیر های تصادفی پیوسته x و y استقالل و امید ریاضی به نام خدا آمار و احتمال مهندسی هفته 21 نیمسال اول ۴9-۴9 مدرس: دکتر پرورش ۴9/24/49 نویسنده:مینا سلیمان گندمی و هاجر کشاورز خالصه درس: امید ریاضی شرطی استقالل متغیر های تصادفی پیوسته x و y استقالل و امید

Διαβάστε περισσότερα

آموزش شناسایی خودهمبستگی در دادههای سری زمانی و نحوه رفع آن در نرم افزار EViews

آموزش شناسایی خودهمبستگی در دادههای سری زمانی و نحوه رفع آن در نرم افزار EViews بس م الله الر حم ن الر حی م آموزش شناسایی خودهمبستگی در دادههای سری زمانی و نحوه رفع آن در نرم افزار EViews Econometrics.blog.ir حسین خاندانی مدرس داده کاوی و اقتصادسنجی بس م الله الر حم ن الر حی م سخن

Διαβάστε περισσότερα

http://econometrics.blog.ir/ متغيرهای وابسته نماد متغيرهای وابسته مدت زمان وصول حساب های دريافتني rcp چرخه تبدیل وجه نقد ccc متغیرهای کنترلی نماد متغيرهای کنترلي رشد فروش اندازه شرکت عملکرد شرکت GROW SIZE

Διαβάστε περισσότερα

)مطالعه موردی بازار بورس تهران(

)مطالعه موردی بازار بورس تهران( برازش مدل رگرسیون خطی چند گانه با خطاهای وابسته و داراری توزیع t چند متغیره )مطالعه موردی بازار بورس تهران اعظم غمگسار*)ارائهکننده انیس ایرانمنش*)مکاتبهکننده** امیر دانشگر anisiranmanesh@yahoo.com mr.daneshgar@gmail.comazamghamgosar@yahoo.com

Διαβάστε περισσότερα

فصل پنجم زبان های فارغ از متن

فصل پنجم زبان های فارغ از متن فصل پنجم زبان های فارغ از متن خانواده زبان های فارغ از متن: ( free )context تعریف: گرامر G=(V,T,,P) کلیه قوانین آن به فرم زیر باشد : یک گرامر فارغ از متن گفته می شود در صورتی که A x A Є V, x Є (V U T)*

Διαβάστε περισσότερα

جلسه 28. فرض کنید که m نسخه مستقل یک حالت محض دلخواه

جلسه 28. فرض کنید که m نسخه مستقل یک حالت محض دلخواه نظریه اطلاعات کوانتمی 1 ترم پاییز 1392-1391 مدرسین: ابوالفتح بیگی و امین زاده گوهري نویسنده: مرتضی نوشاد جلسه 28 1 تقطیر و ترقیق درهم تنیدگی ψ m بین آذر و بابک به اشتراك گذاشته شده است. آذر و AB فرض کنید

Διαβάστε περισσότερα

مکانيک جامدات ارائه و تحليل روش مناسب جهت افزایش استحکام اتصاالت چسبي در حالت حجم چسب یکسان

مکانيک جامدات ارائه و تحليل روش مناسب جهت افزایش استحکام اتصاالت چسبي در حالت حجم چسب یکسان پائیز 2931/ سال ششم/ شماره ویژه دوم فصلنامه علمي پژوهشي مهندسي مکانيک جامدات فصلنامه علمي پژوهشي مهندسي مکانيک جامدات www.jsme.ir ارائه و تحليل روش مناسب جهت افزایش استحکام اتصاالت چسبي در حالت حجم چسب

Διαβάστε περισσότερα

Spacecraft thermal control handbook. Space mission analysis and design. Cubesat, Thermal control system

Spacecraft thermal control handbook. Space mission analysis and design. Cubesat, Thermal control system سیستم زیر حرارتی ماهواره سرفصل های مهم 1- منابع مطالعاتی 2- مقدمه ای بر انتقال حرارت و مکانیزم های آن 3- موازنه انرژی 4 -سیستم های کنترل دما در فضا 5- مدل سازی عددی حرارتی ماهواره 6- تست های مورد نیاز

Διαβάστε περισσότερα

مود لصف یسدنه یاه لیدبت

مود لصف یسدنه یاه لیدبت فصل دوم 2 تبدیلهای هندسی 1 درس او ل تبدیل های هندسی در بسیاری از مناظر زندگی روزمره نظیر طراحی پارچه نقش فرش کاشی کاری گچ بری و... شکل های مختلف طبق الگویی خاص تکرار می شوند. در این فصل وضعیت های مختلفی

Διαβάστε περισσότερα

مینامند یا میگویند α یک صفر تابع

مینامند یا میگویند α یک صفر تابع 1 1-1 مقدمه حل بسیاری از مسائل اجتماعی اقتصادی علمی منجر به حل معادله ای به شکل ) ( می شد. منظر از حل این معادله یافتن عدد یا اعدادی است که مقدار تابع به ازای آنها صفر شد. اگر (α) آنگاه α را ریشه معادله

Διαβάστε περισσότερα

1- مقدمه ای بر شبیه سازی< سر فصل مطالب

1- مقدمه ای بر شبیه سازی< سر فصل مطالب 1 بنام خدا بهینه سازی شبیه سازی Simulation Optimization Lecture 1 مروری بر شبیه سازی A review on Simulation 1- مقدمه ای بر شبیه سازی< سر فصل مطالب 2 شماره عنوان فصل 1-1 تعاریف 2-1 مثال هایی از شبیه سازی

Διαβάστε περισσότερα

جلسه ی ۱۸: درهم سازی سرتاسری - درخت جست و جوی دودویی

جلسه ی ۱۸: درهم سازی سرتاسری - درخت جست و جوی دودویی دانشکده ی علوم ریاضی ساختمان داده ۱۰ ا ذر ۹۲ جلسه ی ۱۸: درهم سازی سرتاسری - درخت جست و جوی دودویی مدر س: دکتر شهرام خزاي ی نگارنده: معین زمانی و ا رمیتا اردشیری ۱ یادا وری همان طور که درجلسات پیش مطرح

Διαβάστε περισσότερα

شبکه های عصبی در کنترل

شبکه های عصبی در کنترل شبکه های عصبی در کنترل دانشگاه نجف آباد درس: کنترل هوشمند در فضای سایبرنتیک مدرس: حمید محمودیان مدل ریاضی نرون مدل ریاضی یک نرون ساده به صورت روبرو است P: مقدار کمیت ورودی b: مقدار بایاس )عرض از مبدا تابع

Διαβάστε περισσότερα

سینماتیک مستقیم و وارون

سینماتیک مستقیم و وارون 3 سینماتیک مستقیم و وارون بهنام میری پور فرد استادیار گروه مهندسی رباتیک دانشگاه صنعتی همدان همدان ایران bmf@hut.ac.ir B. Miripour Fard Hamedan University of Technology 1 در سینماتیک حرکت بررسی کند می

Διαβάστε περισσότερα

جلسه ی ۲۴: ماشین تورینگ

جلسه ی ۲۴: ماشین تورینگ دانشکده ی علوم ریاضی نظریه ی زبان ها و اتوماتا ۲۶ ا ذرماه ۱۳۹۱ جلسه ی ۲۴: ماشین تورینگ مدر س: دکتر شهرام خزاي ی نگارندگان: حمید ملک و امین خسر وشاهی ۱ ماشین تور ینگ تعریف ۱ (تعریف غیررسمی ماشین تورینگ)

Διαβάστε περισσότερα

Beta Coefficient نویسنده : محمد حق وردی

Beta Coefficient نویسنده : محمد حق وردی مفهوم ضریب سهام بتای Beta Coefficient نویسنده : محمد حق وردی مقدمه : شاید بارها در مقاالت یا گروهای های اجتماعی مربوط به بازار سرمایه نام ضریب بتا رو دیده باشیم یا جایی شنیده باشیم اما برایمان مبهم باشد

Διαβάστε περισσότερα

مقایسه کارایی آنالیز مولفه های اصلی و تبدیل کسینوسی گسسته در شناسایی چهره با استفاده از تبدیل موجک و ماشین بردار پشتیبان

مقایسه کارایی آنالیز مولفه های اصلی و تبدیل کسینوسی گسسته در شناسایی چهره با استفاده از تبدیل موجک و ماشین بردار پشتیبان مقایسه کارایی آنالیز مولفه های اصلی و تبدیل کسینوسی گسسته در شناسایی چهره با استفاده از تبدیل موجک و ماشین بردار پشتیبان 2 1 مژده الهی جلیل شیرازی 1- دانشجوی کارشناسی ارشد کنترل دانشگاه آزاد اسالمی واحد

Διαβάστε περισσότερα

فصل 5 :اصل گسترش و اعداد فازی

فصل 5 :اصل گسترش و اعداد فازی فصل 5 :اصل گسترش و اعداد فازی : 1-5 اصل گسترش در ریاضیات معمولی یکی از مهمترین ابزارها تابع می باشد.تابع یک نوع رابطه خاص می باشد رابطه ای که در نمایش زوج مرتبی عنصر اول تکراری نداشته باشد.معموال تابع

Διαβάστε περισσότερα

تبدیل ها هندسه سوم دبیرستان ( D با یک و تنها یک عضو از مجموعه Rست که در آن هر عضو مجموعه نگاشت از Dبه R تناظری بین مجموعه های D و Rمتناظر باشد.

تبدیل ها هندسه سوم دبیرستان ( D با یک و تنها یک عضو از مجموعه Rست که در آن هر عضو مجموعه نگاشت از Dبه R تناظری بین مجموعه های D و Rمتناظر باشد. تبدیل ها ن گاشت : D با یک و تنها یک عضو از مجموعه نگاشت از Dبه R تناظری بین مجموعه های D و Rمتناظر باشد. Rست که در آن هر عضو مجموعه تبد ی ل : نگاشتی یک به یک از صفحه به روی خودش است یعنی در تبدیل هیچ دو

Διαβάστε περισσότερα

1 دایره فصل او ل کاربردهای بسیاری داشته است. یک قضیۀ بنیادی در هندسه موسوم با محیط ثابت دایره دارای بیشترین مساحت است. این موضوع در طراحی

1 دایره فصل او ل کاربردهای بسیاری داشته است. یک قضیۀ بنیادی در هندسه موسوم با محیط ثابت دایره دارای بیشترین مساحت است. این موضوع در طراحی فصل او ل 1 دایره هندسه در ساخت استحکامات دفاعی قلعهها و برج و باروها از دیرباز کاربردهای بسیاری داشته است. یک قضیۀ بنیادی در هندسه موسوم به»قضیۀ همپیرامونی«میگوید در بین همۀ شکلهای هندسی بسته با محیط ثابت

Διαβάστε περισσότερα

2/13/2015 حمیدرضا پوررضا H.R. POURREZA 2 آخرین گام در ساخت یک سیستم ارزیابی آن است

2/13/2015 حمیدرضا پوررضا H.R. POURREZA 2 آخرین گام در ساخت یک سیستم ارزیابی آن است 1 ارزیا ی م حمیدرضا پوررضا قد 2 آخرین گام در ساخت یک سیستم ارزیابی آن است 1 ف ی ا ط لاحات 3 :Degrees of Freedom (DOF) این اصطلاح در سیستمهاي ردیاب استفاده میشود و بنابه تعریف عبارتست از آزادي حرکت انتقالی

Διαβάστε περισσότερα

ندرک درگ ندرک درگ شور

ندرک درگ ندرک درگ شور ٥ عددهای تقریبی درس او ل: تقریب زدن گردکردن در کالس چهارم شما با تقریب زدن آشنا شده اید. عددهای زیر را با تقریب دهگان به نزدیک ترین عدد مانند نمونه تقریب بزنید. عدد جواب را در خانه مربوطه بنویسید. 780

Διαβάστε περισσότερα

Nonparametric Shewhart-Type Signed-Rank Control Chart with Variable Sampling Interval

Nonparametric Shewhart-Type Signed-Rank Control Chart with Variable Sampling Interval International Journal of Industrial Engineering & Production Management 2013) ugust 2013, Volume 24, Number 2 pp. 183-189 http://ijiepm.iust.ac.ir/ Nonparametric Shewhart-Type Signed-Rank Control Chart

Διαβάστε περισσότερα

باسمه تعالی آزمون نهایی درس یادگیری ماشین به همراه پاسخ کوتاه ترم اول 29-29

باسمه تعالی آزمون نهایی درس یادگیری ماشین به همراه پاسخ کوتاه ترم اول 29-29 مدرس: محمدعلی کیوانراد باسمه تعالی آزمون نهایی درس یادگیری ماشین به همراه پاسخ کوتاه ترم اول 9-9 زمان: 01 دقیقه نام و نام خانوادگی: شماره دانشجویی: ایمیل: در این قسمت عالوه بر تعیین گزینه درست علت انتخاب

Διαβάστε περισσότερα

فهرست مطالب جزوه ی فصل اول مدارهای الکتریکی مفاهیم ولتاژ افت ولتاژ و اختالف پتانسیل تحلیل مدار به روش جریان حلقه... 22

فهرست مطالب جزوه ی فصل اول مدارهای الکتریکی مفاهیم ولتاژ افت ولتاژ و اختالف پتانسیل تحلیل مدار به روش جریان حلقه... 22 فهرست مطالب جزوه ی فصل اول مدارهای الکتریکی آنچه باید پیش از شروع کتاب مدار بدانید تا مدار را آسان بیاموزید.............................. 2 مفاهیم ولتاژ افت ولتاژ و اختالف پتانسیل................................................

Διαβάστε περισσότερα

تخمین نقطه تغییر در ماتریس کواریانس فرآیند نرمال چند متغیره با استفاده از شبکه عصبی

تخمین نقطه تغییر در ماتریس کواریانس فرآیند نرمال چند متغیره با استفاده از شبکه عصبی تخمین نقطه تغییر در ماتریس کواریانس فرآیند نرمال چند متغیره با استفاده از شبکه عصبی امیرحسین امیری نویسنده مسئول( دانشیار گروه مهندسی صنایع دانشکده فنی و مهندسی دانشگاه شاهد تهران محمدرضا ملکی دانشجوی

Διαβάστε περισσότερα

مدل های GARCH بوتبوتاسترپ چکیده نصراله ایرانایرانپناه دانشگاه اصفهان طاهره اصالنی گروه آمار- دانشگاه اصفهان

مدل های GARCH بوتبوتاسترپ چکیده نصراله ایرانایرانپناه دانشگاه اصفهان طاهره اصالنی گروه آمار- دانشگاه اصفهان مالی و کاربردها و بهمن ماه 93 دانشگاه سمنان سمنان ررو شوش مدل های GARCH در بوتبوتاسترپ )iranpanah@sci.ui.ac.ir( * نصراله ایرانایرانپناه دانشگاه اصفهان گروه آمار- * دانشگاه اصفهان گروه آمار- )t.aslani@sci.ui.ac.ir

Διαβάστε περισσότερα

تعیین محل قرار گیری رله ها در شبکه های سلولی چندگانه تقسیم کد

تعیین محل قرار گیری رله ها در شبکه های سلولی چندگانه تقسیم کد تعیین محل قرار گیری رله ها در شبکه های سلولی چندگانه تقسیم کد مبتنی بر روش دسترسی زلیخا سپهوند دانشکده مهندسى برق واحد نجف آباد دانشگاه آزاد اسلامى نجف آباد ایر ان zolekhasepahvand@yahoo.com روح االله

Διαβάστε περισσότερα

هر عملگرجبر رابطه ای روی يک يا دو رابطه به عنوان ورودی عمل کرده و يک رابطه جديد را به عنوان نتيجه توليد می کنند.

هر عملگرجبر رابطه ای روی يک يا دو رابطه به عنوان ورودی عمل کرده و يک رابطه جديد را به عنوان نتيجه توليد می کنند. 8-1 جبررابطه ای يک زبان پرس و جو است که عمليات روی پايگاه داده را توسط نمادهايی به صورت فرمولی بيان می کند. election Projection Cartesian Product et Union et Difference Cartesian Product et Intersection

Διαβάστε περισσότερα

SanatiSharif.ir مقطع مخروطی: دایره: از دوران خط متقاطع d با L حول آن یک مخروط نامحدود بدست میآید که سطح مقطع آن با یک

SanatiSharif.ir مقطع مخروطی: دایره: از دوران خط متقاطع d با L حول آن یک مخروط نامحدود بدست میآید که سطح مقطع آن با یک مقطع مخروطی: از دوران خط متقاطع d با L حول آن یک مخروط نامحدود بدست میآید که سطح مقطع آن با یک صفحه میتواند دایره بیضی سهمی هذلولی یا نقطه خط و دو خط متقاطع باشد. دایره: مکان هندسی نقاطی است که فاصلهی

Διαβάστε περισσότερα

:موس لصف یسدنه یاه لکش رد یلوط طباور

:موس لصف یسدنه یاه لکش رد یلوط طباور فصل سوم: 3 روابط طولی درشکلهای هندسی درس او ل قضیۀ سینوس ها یادآوری منظور از روابط طولی رابطه هایی هستند که در مورد اندازه های پاره خط ها و زاویه ها در شکل های مختلف بحث می کنند. در سال گذشته روابط طولی

Διαβάστε περισσότερα

نظریه زبان ها و ماشین ها

نظریه زبان ها و ماشین ها نظریه زبان ها و ماشین ها Theory of Languages & Automatas سید سجاد ائم ی زمستان 94 به نام خدا پیش گفتار جزوه پیش رو جهت استفاده دانشجویان عزیز در درس نظریه زبانها و ماشینها تهیه شده است. در این جزوه با

Διαβάστε περισσότερα

هد ف های هفته ششم: 1- اجسام متحرک و ساکن را از هم تشخیص دهد. 2- اندازه مسافت و جا به جایی اجسام متحرک را محاسبه و آن ها را مقایسه کند 3- تندی متوسط

هد ف های هفته ششم: 1- اجسام متحرک و ساکن را از هم تشخیص دهد. 2- اندازه مسافت و جا به جایی اجسام متحرک را محاسبه و آن ها را مقایسه کند 3- تندی متوسط هد ف های هفته ششم: 1- اجسام متحرک و ساکن را از هم تشخیص دهد. - اندازه مسافت و جا به جایی اجسام متحرک را محاسبه و آن ها را مقایسه کند 3- تندی متوسط اجسام متحرک را محاسبه کند. 4- تندی متوسط و لحظه ای را

Διαβάστε περισσότερα

محاسبات کوانتمی 1 علم ساخت و استفاده از کامپیوتري است که بر پایه ي اصول مکانیک کوانتم قرار گرفته است.

محاسبات کوانتمی 1 علم ساخت و استفاده از کامپیوتري است که بر پایه ي اصول مکانیک کوانتم قرار گرفته است. محاسبات کوانتمی (22671) ترم بهار 1390-1391 مدرس: سلمان ابوالفتح بیگی نویسنده: سلمان ابوالفتح بیگی جلسه 1 محاسبات کوانتمی 1 علم ساخت و استفاده از کامپیوتري است که بر پایه ي اصول مکانیک کوانتم قرار گرفته

Διαβάστε περισσότερα